• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " NVIDIA"에 대한 통합 검색 내용이 949개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, AI 기반 워크플로 강화하는 RTX A400과 A1000 GPU 출시
엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다.   ▲ 엔비디아 RTX A1000   엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다. 엔비디아 RTX A400과 A1000 GPU에 탑재된 2세대 RT 코어는 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어는 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다. 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다. A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W에 불과하며, 콤팩트하고 에너지 효율적인 워크스테이션에 인상적인 기능을 제공한다.  엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.
작성일 : 2024-04-18
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12
슈나이더 일렉트릭-엔비디아, AI 데이터센터 인프라 최적화 위한 파트너십 체결
슈나이더 일렉트릭이 엔비디아와 데이터센터 인프라 최적화 및 디지털 트윈 기술 기반 마련을 위한 파트너십을 체결했다고 밝혔다. AI 애플리케이션이 산업 전반에 걸쳐 주목을 받고 있는 동시에, 기존 컴퓨팅보다 더 많은 리소스에 대한 수요가 높아지며 처리 능력에 대한 필요성이 기하급수적으로 증가하고 있다. 특히 데이터센터 설계와 운영이 눈에 띄게 변화하고 복잡해지면서, 업계에서는 운영의 효율성과 확장성을 모두 갖춘 안정적인 데이터센터 시스템을 신속하게 구축하고 운영하기 위해 노력하고 있다. 슈나이더 일렉트릭은 이번 파트너십을 통해 엔비디아의 첨단 AI 기술과 자사의 데이터센터 인프라에 대한 전문성을 바탕으로 데이터센터 레퍼런스 디자인을 출시해 업계 전반에 공개할 예정이다. 슈나이더 일렉트릭은 데이터센터 에코시스템 내 AI 배포 및 운영의 기준을 재정의함으로써 업계 발전의 중요한 이정표가 될 것으로 전망하고 있다.     슈나이더 일렉트릭은 데이터 처리, 엔지니어링 시뮬레이션, 전자 설계 자동화 등을 위해 구축된 엔비디아의 가속 컴퓨터 클러스터에 최적화된 데이터센터 레퍼런스 디자인을 소개할 예정이다. 이 디자인은 특히 고밀도 클러스터를 위한 간략 시운전과 안정적인 운영을 보장하는 고전력 분배, 액체 냉각 시스템 및 제어 기능을 구현하는데 중점을 뒀다. 슈나이더 일렉트릭은 이번 협력으로 AI 솔루션을 데이터센터 인프라에 원활하게 통합하고, 효율  및 안정적인 수명 주기를 보장하는데 필요한 도구 및 리소스를 제공하는 것을 목표로 한다고 밝혔다. 슈나이더 일렉트릭이 제공하는 데이터센터 레퍼런스 디자인은 파트너, 엔지니어 및 기업이 기존 데이터센터 운영에 참고할 수 있으며, 고밀도 AI 서버 및 액체 냉각AI 클러스터에 최적화된 새로운 데이터센터를 구축하는데도 활용할 수 있다. 또한 슈나이더 일렉트릭은 자회사인 아비바의 디지털 트윈 플랫폼을 엔비디아 옴니버스(NVIDIA Omniverse)에 연결해 가상 시뮬레이션 및 협업을 위한 통합 환경을 제공할 예정이다. 이 환경에서 설계자, 엔지니어 및 데이터센터 운영자는 상호 원활한 협업을 할 수 있으며, 복잡한 시스템의 설계 및 구축을 가속화하는 동시에 출시 기간과 비용을 절감할 수 있다. 엔비디아의 이안 벅(Ian Buck) 하이퍼스케일 및 HPC 부분 부사장은 “슈나이더 일렉트릭과의 협력을 통해 우리는 차세대 엔비디아 가속 컴퓨팅 기술을 사용해 AI 데이터센터 설계를 제공하게 됐다”면서, “이는 조직이 AI의 잠재력을 활용하고 산업 전반에 걸쳐 혁신과 디지털 전환을 추진하는데 필요한 인프라는 제공한다”고 설명했다. 슈나이더 일렉트릭의 판카즈 샤르마(Pankaj Sharma) 시큐어파워 사업부 데이터센터 비즈니스 총괄 부사장은 “데이터센터 솔루션에 대한 슈나이더 일렉트릭의 전문성과 엔비디아의 AI 기술 리더십을 결합하여 기업이 데이터 센터 인프라의 한계를 극복하고 AI의 잠재력을 최대한 활용할 수 있도록 도울 것”이라며, “엔비디아와의 협력을 통해 보다 효율적이고 지속가능한 미래를 만드는데 큰 기여를 할 수 있을 것이라 생각한다”고 전했다.
작성일 : 2024-04-11
케이던스, AI 시대의 데이터센터 설계를 위한 디지털 트윈 플랫폼 출시
케이던스 디자인 시스템즈는 지속 가능한 데이터센터 설계와 최신화를 촉진하는 종합 AI 기반 디지털 트윈 솔루션을 출시하면서, 데이터센터 에너지 효율과 운영 용량 최적화를 지원한다고 밝혔다. 국제에너지기구(IEA)에 따르면 미국 내 데이터센터가 전기 사용 총량에서 차지하는 비중이 2023년 기준으로 4%를 넘어섰으며, 향후 수십 년간 기하급수적으로 증가할 전망이다. 케이던스의 리얼리티 디지털 트윈 플랫폼은 데이터센터 설계자 및 운영자가 데이터센터의 복잡한 시스템을 탐색하고 데이터센터 컴퓨팅 및 냉각 리소스의 비효율적인 사용에 따른 용량 부족 문제를 해결함으로써, 전력 부족 시대에 AI 기반 워크로드 최적화로 환경에 미치는 영향을 완화하는데 도움을 줄 수 있다.  케이던스의 리얼리티 디지털 트윈 플랫폼(Cadence Reality Digital Twin Platform)은 전체 데이터센터를 가상화하고 AI, 고성능 컴퓨팅(HPC) 및 물리 기반 시뮬레이션을 사용하여 데이터센터의 에너지 효율을 개선해준다. 물리적 데이터센터의 포괄적인 디지털 트윈을 생성함으로써, 진화하는 비즈니스 및 환경 관련 요구사항에 발맞춰 정밀한 인프라 계획, 분석 및 관리 능력을 제공하는 것이다.      케이던스 리얼리티 디지털 트윈 플랫폼은 모델 생성 및 시뮬레이션에 AI를 사용하여 공기 흐름, 풍속, 공기 흡입을 막는 장애물, 내/외부 온도 변화 등 데이터센터 운영에 영향을 미치는 물리적인 외부 요인을 예측한다. 고급 모델링 기능을 통해 광범위한 설계 시나리오 및 운영 전략을 시뮬레이션하고, 각 데이터센터별로 에너지 효율이 가장 큰 솔루션을 찾아낸다. 그리고, 설계 프로세스에 외부 환경 요인을 통합하여 탄력적인 개발뿐 아니라 지속 가능한 데이터센터 운영을 가능하게 한다. 이 플랫폼은 각 프로젝트의 세부 요건에 맞는 자동화된 상세 리포트를 제공하여, 잠재적인 에너지 절감 및 효율성 향상에 대한 심층적인 이해를 지원한다. 또한, 여러 냉각 시스템이 에너지 소비에 미치는 영향을 평가하여 가장 효과적인 냉각 솔루션에 대한 통찰력을 제공한다. 이외에도 케이던스의 멀티피직스(multi-physics) 솔버에 통합되어 칩렛(chiplet)에서 기후에 이르기까지 동일한 정확성을 갖는 고용량 멀티 도메인 엔진을 구현할 수 있는 것이 특징이다. 케이던스는 이 플랫폼을 통해 모든 산업서 차세대 데이터센터 및 AI 공장의 개발을 가속화할 수 있으며, 엔비디아 옴니버스(NVIDIA Omniverse) 개발 플랫폼과 통합되어 최대 30배 더 빠른 설계 및 시뮬레이션 워크플로를 구현할 수 있다고 설명했다. 케이던스의 톰 베클리(Tom Beckley) 커스텀 IC &PCB 그룹 수석 부사장 겸 총괄은 “데이터센터가 AI의 급속한 성장에 직면하여 지속가능성과 에너지 효율에 우선순위를 두어야 한다는 압박을 받고 있는 상황”이라면서, “리얼리티 디지털 트윈 플랫폼이 데이터센터 설계 및 운영의 모든 측면을 최적화하여 에너지 효율을 개선하고, 보다 더 효율적이고 탄력적이며 환경 친화적인 길을 열어줄 것”이라고 설명했다.
작성일 : 2024-04-02
엔비디아, 산업 자동화 위해 디지털 트윈과 실시간 AI 결합 소개
엔비디아가 디지털 트윈으로 실시간 AI를 시뮬레이션해 산업 자동화에 큰 발전을 이룰 수 있다고 소개했다. 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 GTC 기조연설에서 개발자가 디지털 트윈(digital twin)을 사용해 대규모 실시간 AI를 산업 인프라에 적용하기 전, 이 전체를 먼저 시뮬레이션 한 후에 개발, 검증하고 개선한다면 상당한 시간과 비용을 절감할 수 있다는 것을 시연을 통해 보여줬다. 실시간(Real-Time) AI는 제조, 공장 물류, 로보틱스 분야의 중대한 작업을 처리하는 데 큰 도움을 주고 있다. 시뮬레이션을 우선으로 실시하는 접근방식은 부피가 큰 제품, 고가의 장비, 협동 로봇 코봇(cobot) 환경, 복잡한 물류 시설을 다루는 산업에서 자동화 기술의 발전을 한 단계 끌어올리고 있다. 엔비디아 옴니버스(Omniverse), 메트로폴리스(Metropolis), 아이작(Isaac)과 cuOpt 플랫폼이 서로 상호작용하는 AI 훈련장(gym)에서, 개발자들은 인간과 로봇이 예측 불가능한 복잡한 상황을 탐색할 수 있도록 AI 에이전트(Agent)를 훈련시킬 수 있다. 데모 영상은 오픈USD(OpenUSD) 앱 개발과 연결을 위해 엔비디아 옴니버스 플랫폼으로 만들어진 10만 평방 피트 규모의 창고 디지털 트윈을 보여준다. 이는 수십의 디지털 작업자와 다수의 자율주행로봇(autonomous mobile robot, AMR), 비전 AI 에이전트와 센서를 위한 시뮬레이션 환경으로 활용되고 있다. 엔비디아 아이작 퍼셉터(Isaac Perceptor) 멀티-센서 스택을 실행하는 각각의 자율주행로봇은 모두 디지털 트윈에서 시뮬레이션한 6개의 센서로 시각 정보를 처리한다. 동시에 비전 AI용 엔비디아 메트로폴리스 플랫폼은 전체 창고에서 작업자 활동에 대한 단일 중앙집중식 지도를 생성해 천장에 장착된 100개의 시뮬레이션 카메라 스트림과 멀티 카메라 추적을 융합한다. 이 중앙집중식 점유 지도(occupancy map)는 복잡한 라우팅 문제를 해결하기 위해 엔비디아 cuOpt 엔진이 계산한 자율주행로봇의 최적 경로를 알려준다. AI 기반 최고의 최적화 마이크로서비스인 cuOpt는 GPU 가속 진화 알고리즘을 사용해 여러 제약 조건이 있는 복잡한 라우팅 문제를 해결한다. 이 모든 과정은 실시간으로 이루어지며, 아이작 미션 컨트롤(Isaac Mission Control) 은 cuOpt의 지도 데이터와 경로 그래프로 모든 자율주행로봇을 조정해 명령을 전송하고 실행하게 한다. 산업 디지털화를 위한 AI 훈련장 AI 에이전트는 공장에서 다수의 로봇을 관리하거나 공급망 유통 센터에서 인간과 로봇의 협업을 위해 간소화된 구성을 파악하는 등 대규모 산업 환경을 지원한다. 이러한 복잡한 에이전트를 구축하려면 개발자는 AI 평가, 시뮬레이션과 훈련을 위해 물리적으로 정확하게 구현된 AI 훈련장과 같은 디지털 트윈 환경이 필요하다. AI 에이전트와 자율주행로봇은 소프트웨어 인 더 루프(software-in-the-loop, SIL) AI 테스트를 통해 예측하기 힘든 실제 환경에 적응할 수 있다. 위의 데모에서는 자율주행로봇이 계획한 경로 중간에 사고가 발생해 경로가 차단되고 로봇은 화물 운반대를 픽업하지 못한다. 그러면 엔비디아 메트로폴리스는 점유 그리드(occupancy grid)를 업데이트해 모든 사람, 로봇, 물체가 한 눈에 보이도록 매핑한다. 그 다음, 자율주행로봇은 cuOpt가 계획한 최적 경로에 따라 대응해 가동 중단 시간을 최소화한다. 메트로폴리스 비전 파운데이션 모델이 엔비디아 비전 인사이트 에이전트(Visual Insight Agent, VIA) 프레임워크를 구동함으로써, AI 에이전트는 "공장의 3번 통로에서 어떤 상황이 발생했습니까?"와 같은 운영 팀의 질문에 "오후 3시 30분에 선반에서 상자가 떨어져 통로를 막았습니다"와 같이 바로 통찰력 있는 답변을 제공할 수 있다. 개발자는 비전 인사이트 에이전트 프레임워크를 통해 엣지와 클라우드 비전에 배포된 언어 모델을 사용, 대량의 실시간 혹은 보관된 영상과 이미지를 처리할 수 있는 AI 에이전트를 구축할 수 있다. 이 차세대 비전 AI 에이전트는 자연어를 사용하는 영상에서 요약, 검색, 그리고 실행가능한 인사이트를 추출함으로써 거의 모든 산업에 도움이 될 수 있을 것으로 기대된다. 이러한 모든 AI 기능은 지속적인 시뮬레이션 기반 훈련을 통해 향상되며, 모듈식 엔비디아 NIM 추론 마이크로서비스로 배포된다.      
작성일 : 2024-03-31
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
미르, 팔레트 물류 자동화 지원하는 AI 기반 ‘MiR1200 팔레트 잭’ 자율이동로봇 출시
자율이동로봇(AMR) 제조업체인 미르(MiR)는 새로운 자율이동로봇인 ‘MiR1200 팔레트 잭(Pallet Jack)’을 출시한다고 밝혔다. 엔비디아 젯슨 AGX 오린(NVIDIA Jetson AGX Orin)으로 구동되는 첨단 AI 기반 팔레트 감지 기능이 적용된 MiR1200 팔레트 잭은 3D 비전을 이용해 팔레트를 식별하고, 높은 정밀도로 팔레트를 픽업 및 운송할 수 있다. MiR1200 팔레트 잭은 기존의 미르 AMR과 원활하게 통합이 가능하고, 미르의 데크 적재화물(Deck Load) AMR과 상호 운용되도록 설계됐다. 이를 통해 일반적으로 여러 현장에서 더 많은 로봇으로 복잡한 작업 흐름을 처리해야 하는 대규모 기업 고객에게 적합하다는 것이 미르의 설명이다.     MiR1200 팔레트 잭은 120만개 이상의 실제 및 합성 이미지를 학습한 솔루션으로 빠르고 정확한 팔레트 감지 기능을 지원한다. 높은 배터리 용량과 고속 충전 기능으로 연중무휴 작업 흐름에 적합하며, ISO 3691-4를 포함해 최신 제품 표준을 준수하도록 설계되어 다양한 환경에서 안전하게 사용할 수 있다.  라이다 및 3D 비전이 결합된 장애물 감지용 3D 센서는 바닥, 머리 위 및 주변의 장애물을 정밀하게 감지하여 정확하고 안전한 팔레트 배치를 지원하며, IP 52 등급과 견고한 바퀴로 까다로운 표면에서도 이동성을 제공하는 것도 특징이다. MiR1200 팔레트 잭의 3D 비전 기능은 특히 자동화가 어려운 복잡한 환경과 증가하는 노동력 부족으로 인해 자동화가 필요한 현장에서 기업이 자원 집약적인 자재관리 문제를 효과적으로 해결할 수 있도록 지원한다. MiR1200 팔레트 잭은 바닥에 떨어져 있는 물체나 머리 위의 장애물을 피하기 위해 경로를 동적으로 수정할 수 있다. 엔비디어 젯슨 AGX 오린 모듈에 내장된 GPU 및 여러 다른 프로세서의 전체 스택을 가속화하여 수많은 카메라와 라이다(LiDAR) 데이터를 실시간으로 처리할 수 있다. 좁은 공간에서도 쉽게 탐색이 가능한 이러한 능력은 기존 인프라 변경을 최소화하면서도 물류 효율성을 최적화하고, 적시에 팔레트를 운송하는데 적합하다. 미르의 장-피에르 하스우트(Jean-Pierre Hathout) 사장은 “미르의 광범위한 AMR에 최근 추가된 MiR1200 팔레트 잭은 기존 운송 솔루션의 크기와 무게는 물론, 운송 시나리오 범위를 대폭 개선함으로써 보다 다양한 적용 분야를 지원할 수 있게 되었다”면서, “또한 업계 선도적인 로봇 관리 툴인 미르 플릿(MiR Fleet)을 통해 모든 로봇을 원활하게 관리 및 통합하고, 미르 인사이트(MiR Insights)를 이용해 모니터링 및 최적화를 실현할 수 있다”고 전했다.
작성일 : 2024-03-25
엔비디아, 3D 그래픽 만드는 생성형 AI 모델 ‘라떼3D’ 공개
엔비디아가 몇 초 만에 텍스트를 3D 그래픽으로 변환하는 생성형 AI 모델 라떼3D(Large-scale Amortized Text-To-Enhanced3D Synthesis : LATTE3D)를 공개했다. 가상 3D 프린터처럼 텍스트 프롬프트를 1초 안에 사물과 동물의 3D 그래픽으로 변환할 수 있는 라떼3D는 표준 렌더링 애플리케이션에 널리 사용되는 포맷으로 제작됐다. 비디오 게임, 광고 캠페인, 디자인 프로젝트 또는 로보틱스용 가상 훈련장 개발 등을 위한 가상 환경을 쉽게 구현할 수 있다. 라떼3D는 엔비디아 리서치 데모에 사용된 엔비디아 RTX A6000과 같은 단일 GPU에서 추론을 실행할 때 거의 즉각적으로 3D 형상을 생성할 수 있게 됐다. 크리에이터는 처음부터 디자인을 시작하거나 3D 애셋 라이브러리를 일일이 찾아보는 대신, 라떼3D를 사용해 머릿속에 아이디어가 떠오르는 즉시 세부적인 개체를 생성할 수 있다.     모델은 텍스트 프롬프트에 따라 몇 가지 다른 3D 모양 옵션을 생성해 크리에이터에게 선택권을 제공한다. 선택된 개체는 몇 분 내에 더 높은 품질로 최적화된다. 그런 다음 사용자는 해당 그래픽을 그래픽 소프트웨어 애플리케이션이나 엔비디아 옴니버스(Omniverse)와 같은 플랫폼으로 전송할 수 있다. 이를 통해 오픈USD(OpenUSD) 기반 3D 워크플로와 애플리케이션을 사용할 수 있다. 연구진은 동물과 일상 사물이라는 두 가지 특정 데이터세트에 대해 라떼3D를 훈련시키고, 개발자는 동일한 모델 아키텍처를 사용해 다른 데이터 유형에 대해 AI를 훈련시킬 수 있다. 예를 들어, 3D 식물 데이터세트를 훈련한 라떼3D 버전은 조경 디자이너가 고객과 브레인스토밍하면서 나무, 꽃 덤불, 다육식물로 정원 렌더링을 빠르게 작성하는데 도움을 줄 수 있다. 가정 내 사물에 대해 훈련된 모델은 집을 3D 시뮬레이션으로 채울 아이템을 생성할 수 있다. 이런 경우 개발자는 테스트하거나 실제 환경에 배치하기 전에 개인 비서 로봇을 훈련할 수 있다. 라떼3D의 훈련에는 엔비디아 A100 텐서 코어(Tensor Core) GPU가 사용됐다. 3D 그래픽 외에도 챗GPT(ChatGPT)를 통해 생성된 다양한 텍스트 프롬프트를 훈련했다. 이를 통해 사용자가 특정 3D 개체를 설명할 때 제시할 수 있는 다양한 문구를 처리하는 능력을 향상시켰다. 예를 들어, 다양한 개 종류를 묘사하는 프롬프트에서는 모두 개 모양을 생성하도록 학습시켰다. 토론토 AI 연구소에서 라떼3D를 개발한 엔비디아의 산자 피들러(Sanja Fidler) AI 리서치 담당 부사장은 “1년 전만 해도 AI 모델이 이 정도 품질의 3D 비주얼을 생성하는데 1시간이 걸렸지만, 이제는 10~12초 정도면 충분하다. 훨씬 더 빠른 속도로 결과를 생성할 수 있게 되면서 업계 전반의 크리에이터들이 거의 실시간으로 텍스트를 3D로 생성할 수 있게 됐다”고 말했다.
작성일 : 2024-03-25
앤시스-엔비디아, 가속 컴퓨팅 및 생성형 AI 기반 CAE 솔루션 개발 협력
앤시스코리아는 가속 컴퓨팅 및 생성형 AI 기반의 차세대 시뮬레이션 솔루션 개발을 위해 엔비디아와 협력을 확대한다고 밝혔다. 양사간 협력 확대를 통해 앤시스는 최첨단 기술을 융합해 6G 통신 기술을 고도화하고 엔비디아 그래픽처리장치(GPU)를 통해 자사의 솔버를 강화할 전망이다. 또한, 앤시스의 소프트웨어에 엔비디아 AI를 통합하고 물리 기반 디지털 트윈을 개발하며, 엔비디아 AI 파운드리 서비스로 개발된 맞춤형 대규모 언어 모델(LLM)을 사용할 예정이다. 앤시스는 최근 포트폴리오 전반에 걸쳐 데이터 상호운용성을 강화하고 향상된 그래픽과 비주얼 렌더링을 제공하기 위해 오픈USD 얼라이언스(AOUSD)에 가입했다. 앤시스는 이미 엔비디아 옴니버스(NVIDIA Omniverse) 플랫폼에 기반한 엔비디아 드라이브 심(NVIDIA DRIVE Sim)에 앤시스 AV엑셀러레이트 오토노미(Ansys AVxcelerate Autonomy)를 연동했으며 앤시스 STK(Ansys STK), 앤시스 LS-DYNA(Ansys LS-DYNA), 앤시스 플루언트(Ansys Fluent) 및 앤시스 퍼시브 EM(Ansys Perceive EM) 등의 추가 연동을 검토하고 있다. 이를 통해 강화된 상호운용성을 바탕으로 사용자는 광범위한 수준에 걸친 다양한 시뮬레이션 과제를 해결할 수 있다. 앤시스는 엔비디아와 협력을 통해 고성능 컴퓨팅(HPC) 분야의 수치 연구를 발전시켜 사용자가 업계 전반에 걸쳐 설계 주기를 단축하고, 보다 복잡화된 제품을 제공할 수 있도록 지원할 계획이다. 앤시스는 다중 시뮬레이션 솔루션 강화를 위해 엔비디아 H100 텐서 코어(NVIDIA H100 Tensor Core) GPU를 활용하며 엔비디아 블랙웰(Blackwell) 기반 프로세서와 엔비디아 그레이스 호퍼 슈퍼칩(Grace Hopper Superchips)을 앤시스 포트폴리오 전반에 우선 도입한다. 여기에는 플루언트, LS-DYNA, 앤시스 전자 제품 및 반도체 제품이 포함된다. 동시에 엔비디아는 반도체 툴을 포함한 앤시스 기술을 활용해 가상 모델과 데이터 센터 설계를 강화, 궁극적으로 앤시스 솔버 성능을 가속화할 예정이다.     앤시스는 엔비디아 6G 리서치 클라우드 (NVIDIA 6G Research Cloud) 플랫폼을 최초로 채택한 기업 중 하나로, 연구자이 무선 액세스 네트워크(RAN) 기술용 AI를 발전시킬 수 있도록 포괄적인 제품군을 제공한다. 앤시스 HFSS로 구동되는 새로운 솔버 ‘앤시스 퍼시브 EM 솔버(Ansys Perceive EM solver)’는 6G 기술 개발 속도를 높이도록 설계된 엔비디아 6G 리서치 클라우드를 기반으로 한다.  앤시스는 최신 AI 기술로 소프트웨어 제품을 강화하기 위해 물리 기반의 머신러닝(ML)을 위한 엔비디아 모듈러스(NVIDIA Modulus) 프레임워크를 연구 중이다. 이 작업은 앤시스 AI+ 제품군 내에서 효율 최적화, 민감도 분석, 견고한 설계 등 향상된 기능을 제공하는 것을 목표로 한다. 또한, 앤시스는 LLM 개발을 발전시키고 설정 및 사용을 단순화하여 시뮬레이션의 대중화를 촉진하기 위해 엔비디아 AI 파운드리(NVIDIA AI foundry) 채택을 검토 중이다. 앤시스 솔루션에 맞춤화된 미래 LLM은 전문적인 가상 지원을 제공하여 새로운 고객의 시뮬레이션 사용 사례를 창출할 잠재력을 제공한다. 앤시스는 생성형 AI를 보다 쉽고 비용 효율적이며 신속하게 개발할 수 있는 도구를 제공하는 엔비디아 네모(NVIDIA NeMo) 플랫폼을 활용할 계획이다. 앤시스의 아제이 고팔(Ajei Gopal) CEO는 “엔비디아와의 협력 확대를 통해 가속 컴퓨팅과 생성형 AI의 새로운 지평을 열 수 있게 되었다”며, “엔비디아 옴니버스의 역동적인 영역 내에서 우리의 고객들이 가상과 현실을 연결함으로써 미래 기술 개발을 비롯한 혁신을 현실화해 우리 시대의 가장 시급한 엔지니어링 과제를 해결할 수 있을 것이라 믿어 의심치 않는다”고 밝혔다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “앞으로 제조되는 모든 제품에는 디지털 트윈이 적용될 것이다. 중공업 업계 내 전세계의 설계자와 엔지니어는 현재 시뮬레이션 엔진으로 앤시스를 사용하고 있다”며, “우리는 앤시스와 협력하여 이러한 대규모 작업에 가속 컴퓨팅 및 생성형 AI를 제공하고, 엔비디아 옴니버스 디지털화 기술로 앤시스의 선도적인 물리 기반 시뮬레이션 도구를 확장할 수 있도록 협력을 이어갈 것”이라고 말했다.
작성일 : 2024-03-25